얀 르쿤과 데미스 하사비스의 기술적 대립과 2025년 인공지능

얀 르쿤과 데미스 하사비스의 기술적 대립과 2025년 인공지능

1. 인공 일반 지능의 정의적 모호성과 2025년의 기술적 좌표

2025년 현재 인공지능(AI) 분야는 인공 일반 지능(Artificial General Intelligence, AGI)이라는 종착점을 향해 전례 없는 속도로 질주하고 있다. 그러나 AGI에 대한 정의는 여전히 합의되지 않은 상태이며, 이는 기술적 담론의 혼란을 가중시킨다. 오픈AI의 샘 알트먼(Sam Altman)은 AGI가 모든 사람에게 다르게 정의되기 때문에 더 이상 유용한 용어가 아니라고 언급하며 그 모호성을 지적한 바 있다.1 이론적으로 AGI는 인간이 수행할 수 있는 모든 지적 과업을 수행할 수 있는 지능을 의미하며, 여기에는 자율적인 목표 설정 능력과 지속적인 학습 능력이 포함된다.1 2025년 하반기에 이른 현재, 상용 모델들은 수학 올림피아드 수준의 고난도 추론에서 성과를 내고 있지만, 기초적인 상식이나 물리적 이해에서 실패하는 ‘들쭉날쭉한 지능(Jagged Intelligence)’ 현상을 보이고 있다.1

현재의 기술 성숙도를 평가하기 위한 시도로서, 업계는 인공지능의 단계를 5단계로 분류하는 프레임워크를 도입했다. 1단계인 기초 챗봇을 지나, 2단계인 추론자(Reasoners) 단계에 진입했으며, 2025년은 인공지능이 스스로 복잡한 작업을 계획하고 실행하는 3단계인 에이전트(Agents) 단계로 넘어가는 과도기적 시점으로 평가된다.1 하지만 진정한 의미의 AGI, 즉 인간의 인지 능력을 모든 도메인에서 완벽하게 재현하거나 초월하는 단계는 여전히 도달하지 못한 목표로 남아 있다.1

인공지능 지능 단계 분류특징 및 핵심 능력2025년 현재 도달 여부
1단계: 챗봇 (Chatbots)자연어 상호작용 및 정보 요약도달 완료
2단계: 추론자 (Reasoners)박사 수준의 고난도 문제 해결 및 추론도달 중 (제미나이 3.0 등)
3단계: 에이전트 (Agents)며칠간 자율적으로 작업을 수행하는 시스템부분적 진입 (코딩 에이전트 등)
4단계: 혁신가 (Innovators)새로운 지식을 스스로 생성 및 발견미도달
5단계: 조직 (Organizations)전체 조직의 과업을 조율하고 실행미도달

상기 표에서 나타나듯, 2025년의 인공지능은 텍스트와 코드 생성 능력을 넘어 논리적 추론 능력을 강화하는 방향으로 진화하고 있다. 특히 구글 딥마인드의 제미나이 딥 싱크(Gemini Deep Think)와 같은 모델이 국제 수학 올림피아드(IMO)에서 금메달 수준의 성과를 거둔 것은 추론 능력의 중대한 진보를 의미한다.6 그러나 이러한 지능은 여전히 특정 데이터 분포에 국한되어 있으며, 실세계의 물리적 법칙이나 지속적인 경험 학습 능력은 결여되어 있다.1

2. 얀 르쿤의 고등 기계 지능(AMI) 비전과 세계 모델

메타(Meta)의 수석 AI 과학자 얀 르쿤(Yann LeCun)은 인공 일반 지능(AGI)이라는 용어 자체에 회의적인 태도를 보이며, 대신 ’고등 기계 지능(Advanced Machine Intelligence, AMI)’이라는 용어를 제안한다.8 르쿤의 핵심 주장은 인간의 지능이 결코 ’일반적’이지 않으며, 생물학적 생존과 물리적 세계의 상호작용에 특화된 지능이라는 점에 기반한다.9 그는 거대 언어 모델(LLM)이 인간 수준의 지능에 도달하는 데 있어 ’막다른 길(Dead-end)’이라고 비판하며, 텍스트의 확률적 예측만으로는 실제 세계의 인과관계와 물리 법칙을 결코 이해할 수 없다고 강조한다.1

2.1 세계 모델(World Model)의 메커니즘과 V-JEPA

르쿤이 제시하는 대안은 ’세계 모델’이다. 세계 모델은 인공지능이 물리적 세계의 거동을 내재적으로 이해하고, 자신의 행동이 미래에 어떤 결과를 초래할지 예측할 수 있는 내부 시뮬레이션 시스템을 의미한다.8 이를 구현하기 위한 아키텍처가 바로 ’V-JEPA(Video Joint-Embedding Predictive Architecture)’이다. V-JEPA는 기존의 생성형 AI와는 달리, 픽셀 단위로 이미지를 재구성하는 방식이 아니라 잠재 공간(Latent Space)에서 추상적인 특징을 예측하는 방식을 취한다.8

V-JEPA V2는 12억 개의 파라미터를 보유하며, 100만 시간 이상의 비디오 데이터를 통해 학습되었다.14 이 모델은 비디오의 특정 부분을 가린(masking) 후 그 가려진 영역의 특징을 예측함으로써, 세계의 동역학과 객체 간의 인과관계를 학습한다. 이러한 예측적 특징 학습은 픽셀 재구성보다 연산 효율성이 수십 배 높으며, 예측 불가능한 세부 사항(예: 나뭇잎의 흔들림)보다는 의미 있는 거시적 변화(예: 공의 궤적)에 집중하게 만든다.8

V-JEPA V2 성능 지표 분석성과 수치비교군 대비 성적
Something-Something v2 (동작 이해)77.3% (Top-1 정확도)기존 모델 압도 14
Epic-Kitchens-100 (행동 예측)39.7 (Recall-at-5)이전 SOTA 대비 44% 향상 13
로봇 팔 제어 (Pick-and-place)65% ~ 80% 성공률미학습 환경에서의 제로샷 계획 13
추론 속도 효율성엔비디아 Cosmos 대비 30배 빠름높은 효율적 아키텍처 입증 13

르쿤의 비전은 이러한 세계 모델을 탑재한 시스템이 인간처럼 계획(Planning)하고 추론(Reasoning)하는 능력을 갖추는 것이다. 그는 AMI 시스템이 물리적(Physical), 에이전트적(Agentic), 중첩된(Nested) 구조를 가져야 한다고 주장하며, 이를 통해 기계가 실생활에서 유용하게 작동할 수 있는 ’상식’을 갖추게 될 것으로 기대한다.8

2.2 인간 지능의 특화성 논증

르쿤은 하사비스와 대립하는 지점에서 인간 지능의 특화성을 강조한다. 그는 인간이 체스와 같은 정밀한 논리 게임에서 기계에 압도당하는 이유가 인간의 지능이 그런 추상적이고 구조화된 과업에 맞지 않게 진화했기 때문이라고 설명한다.9 인간의 지능은 실시간 사회적 상호작용과 물리적 탐색에 극도로 최적화되어 있으며, 이는 우주의 모든 가능한 함수 공간 중 아주 미미한 부분만을 차지한다는 것이 그의 견해이다.10 따라서 그는 기계 지능을 인간 수준으로 끌어올리려면 인간이 가진 ’물리적 직관’과 ’예측 능력’을 먼저 모방해야 한다고 믿는다.8

3. 데미스 하사비스의 AGI 로드맵: 확장과 혁신의 병행

구글 딥마인드(Google DeepMind)의 CEO 데미스 하사비스는 얀 르쿤의 견해에 대해 정면으로 반박하며, 인간 지능은 본질적으로 ’일반적(General)’이라고 주장한다.9 그는 르쿤이 일반 지능과 보편적 지능(Universal Intelligence)을 혼동하고 있다고 지적하며, 비록 모든 문제에 완벽한 알고리즘은 없다는 ‘공짜 점심은 없다(No Free Lunch)’ 정리가 존재하더라도, 인간의 뇌는 가용한 시간과 자원 내에서 무엇이든 학습할 수 있는 ’근사적 튜링 기계(Approximate Turing Machine)’로서의 지위를 갖는다고 강조한다.9

3.1 /50 전략과 제미나이(Gemini) 프로젝트

하사비스는 AGI에 도달하기 위한 딥마인드의 로드맵을 ’50%의 확장(Scaling)’과 ’50%의 혁신(Innovation)’으로 요약한다.5 그는 스케일링 법칙이 여전히 유효하며 AGI 시스템의 근간이 될 것이라고 믿지만, 동시에 ‘들쭉날쭉한 지능’ 문제를 해결하기 위해 아키텍처적 돌파구가 필요하다는 점을 명확히 한다.5 2025년 공개된 제미나이 3(Gemini 3)은 이러한 전략의 결실로, 이전 모델보다 강력한 다중 모드(Multimodal) 처리 능력과 고도화된 추론 엔진을 탑재했다.20

특히 하사비스는 ’추론 시 연산(Inference-time compute)’의 중요성을 강조한다. 이는 모델이 답변을 내놓기 전에 더 오랫동안 생각하게 만드는 기술로, 복잡한 논리 문제를 해결할 때 그 효과가 극명하게 나타난다. 오픈AI의 o3 모델이나 딥마인드의 제미나이 딥 싱크 모드가 바로 이러한 방향성을 공유하며, 이는 단순히 사전 학습된 패턴을 출력하는 것이 아니라 문제 해결을 위해 실시간으로 탐색을 수행하는 방식이다.1

3.2 시뮬레이션과 지능의 진화: Genie와 SIMA

하사비스 로드맵의 또 다른 핵심 축은 ’무한 학습 루프’이다. 인간이 생성한 텍스트 데이터의 고갈에 대비하여, 딥마인드는 디지털 세계 모델인 지니(Genie)를 활용해 물리적으로 일관된 무한한 가상 환경을 생성한다.5 그리고 이 가상 세계 내에서 시마(SIMA)와 같은 범용 에이전트가 다양한 행동을 수행하고 학습하게 함으로써, 인간의 개입 없이도 지능이 진화할 수 있는 토대를 마련하고 있다.5 하사비스는 이러한 ’시뮬레이션된 진화’가 인류의 모든 지식을 습득한 AI가 그 이상의 지능으로 도약하는 유일한 길이라고 믿는다.5

3.3 루트 노드(Root Node) 과학 문제 해결

하사비스는 AGI가 단순한 지능의 모방을 넘어 인류의 근본적인 문제를 해결하는 도구가 되어야 한다고 주장한다. 그는 이를 ‘루트 노드’ 문제라고 부르며, 핵융합 에너지의 실용화와 상온 초전도체와 같은 재료 과학적 혁신을 예로 든다.5 만약 AI가 에너지와 재료 문제를 해결한다면 인류는 ‘포스트 희소성(Post-Scarcity)’ 시대로 진입할 수 있으며, 이는 경제 체제의 근본적인 재작성을 요구하게 될 것이다.5 딥마인드는 실제로 알파폴드(AlphaFold)를 시작으로 과학적 발견에 특화된 모델들을 지속적으로 출시하며 하사비스의 비전을 현실화하고 있다.

4. 년 인공지능 성능 벤치마크 및 비교 분석

2025년은 인공지능이 인간 지능의 정점으로 여겨지는 영역에서 중요한 성과를 거둔 해로 기록될 것이다. 특히 수학적 추론과 추상적 사고 능력에서 상반된 결과가 나타나며 현재 기술의 한계와 가능성을 동시에 보여주었다.

4.1 수학의 정점: IMO 2025의 금메달 성취

2025년 국제 수학 올림피아드(IMO)에서 구글 딥마인드의 제미나이 딥 싱크 모델은 전 세계 엘리트 학생들과 경쟁하여 금메달 수준의 점수인 35점(42점 만점)을 기록했다.6 2024년의 알파프루프(AlphaProof)가 형식 언어로 문제를 번역하는 과정을 거쳐 수일 동안 연산해야 했던 것과 비교하면, 2025년의 모델은 자연어로 직접 문제를 입력받아 4.5시간의 제한 시간 내에 엄밀한 증명을 생성했다는 점에서 비약적인 발전을 보였다.6

IMO 연도 및 모델점수 (42점 만점)메달 수준주요 기술 특징
2024 AlphaProof28점은메달 수준형식 언어 Lean 번역 필수, 수일간 연산 7
2025 Gemini Deep Think35점금메달 수준자연어 엔드-투-엔드 추론, 실시간 처리 6
2025 DeepSeek Math V234점 (추정)은/금메달 경계자가 검증 추론 시스템 탑재 25
인간 평균 (참가자)~20점대다양함직관과 창의적 발상 결합 7

이러한 성과는 인공지능이 이제 단순히 언어를 조합하는 수준을 넘어, 엄밀한 논리 구조를 구축하고 검증하는 능력을 갖추었음을 시사한다. 특히 IMO 채점관들은 AI가 생성한 증명이 매우 명확하고 정밀하며 인간이 따라가기 쉬운 논리 전개를 가졌다고 평가했다.6

4.2 추상화의 장벽: ARC-AGI-2의 도전

수학에서의 눈부신 성과와 달리, 시각적 논리 퍼즐을 해결하는 ARC-AGI-2 벤치마크에서는 인공지능의 한계가 명확히 드러났다. 이 벤치마크는 학습 데이터에 전혀 존재하지 않는 새로운 규칙을 아주 적은 예시(few-shot)만으로 유추해내야 한다. 인간은 누구나 90% 이상의 점수를 기록하지만, 현재 가장 뛰어난 AI 모델들도 30% 내외의 점수에 머물러 있다.2

ARC-AGI-2 리더보드 (2025 하반기)점수 (%)개발사/팀접근 방식
인간 (Human)100.0%N/A선천적 추상 추론 능력 27
NVARC27.6%NVIDIA4B 모델 + 테스트 타임 미세 조정 29
Gemini 3 Pro (Refinement)54.0%Poetiq고가의 반복 최적화 루프 사용 26
GPT-5 Pro18.3%OpenAI생각의 사슬(CoT) 강화 28
Grok 4 (Thinking)16.0%xAI대규모 추론 연산 기반 28

ARC-AGI-2의 결과는 인공지능이 여전히 대규모 데이터를 통한 패턴 인식에 의존하고 있으며, 인간과 같은 유연한 ’시스템 적응 능력’이 부족함을 여실히 보여준다.1 하사비스와 르쿤 모두 이 문제를 해결하는 것이 진정한 AGI로 가는 핵심 관문이라는 점에는 동의하고 있다.

5. 인공지능 경제학의 변화: 효율성과 에너지의 병목 현상

2025년 AI 업계의 또 다른 중대한 흐름은 ’무거운 모델’에서 ’효율적인 모델’로의 패러다임 전환이다. 대규모 데이터 센터의 전력 소비가 중소 도시의 전력 사용량을 넘어서고, 에너지 공급 부족이 데이터 센터 건설의 발목을 잡으면서 알고리즘 효율성은 기술 경쟁력의 핵심이 되었다.30

5.1 딥시크(DeepSeek)와 알고리즘 효율성 혁명

중국의 AI 스타트업 딥시크(DeepSeek)는 이러한 효율성 경쟁에서 선두에 서 있다. 딥시크-V3는 총 6,710억 개의 파라미터를 보유하고 있으면서도, 매 토큰을 처리할 때 단 370억 개의 파라미터만 활성화하는 고도화된 MoE(Mixture-of-Experts) 구조를 완성했다.33 이는 모든 파라미터를 활성화하는 기존 밀집(Dense) 모델 대비 연산 비용을 10분의 1 수준으로 낮춘 혁신이다.33

또한 딥시크는 MLA(Multi-head Latent Attention)라는 독창적인 주의 집중 메커니즘을 개발하여, 과거 정보를 저장하는 KV 캐시 용량을 93% 압축했다.33 이로 인해 인공지능의 문맥 창(Context Window)을 비약적으로 넓히면서도 GPU 메모리 부하를 혁신적으로 줄였으며, 이는 동일한 하드웨어에서 훨씬 높은 처리량(Throughput)을 달성하게 해주었다.33 이러한 저수준 최적화(PTX 레벨 코딩)는 미국 중심의 거대 자본 투입형 개발 방식에 대한 강력한 대항마로 평가받고 있다.33

5.2 에너지 공급망의 위기와 전력 전망

전 세계 데이터 센터의 전력 수요는 2026년까지 전 세계 전력 수요의 2%를 넘어설 것으로 예상되며, 2030년에는 3% 이상에 도달할 것으로 보인다.32 특히 미국 내 데이터 센터 전력 사용량은 2030년까지 연간 345~490 TWh에 달할 것으로 추정된다.30 이러한 막대한 전력 수요를 충당하기 위해 마이크로소프트, 구글 등 빅테크 기업들은 원자력 발전소와 직접 계약을 맺거나 자체적인 재생 에너지 공급망을 구축하고 있다.30 에너지 효율성을 확보하지 못하는 모델은 상용화 단계에서 도태될 수밖에 없는 환경이 조성된 것이다.

6. 하드웨어와 아키텍처의 한계: 트랜스포머의 위기

오늘날 모든 AI의 근간인 트랜스포머(Transformer) 구조가 스케일링 법칙의 한계에 부딪혔다는 징후가 곳곳에서 감지되고 있다. 모델 크기를 키워도 성능 향상이 완만해지는 ’수확 체감의 법칙’이 관찰되고 있으며, 이는 단순히 자본을 투여하는 것만으로는 AGI에 도달할 수 없음을 시사한다.1

6.1 “Scaling Wall“의 현실화

2020년부터 2024년까지 이어졌던 “데이터와 연산량을 늘리면 지능은 따라온다“는 믿음은 2025년 들어 위기를 맞았다. 고품질 텍스트 데이터의 고갈은 물론, 트랜스포머 아키텍처 자체가 가진 구조적 한계(예: 고정된 가중치로 인한 사후 학습 불가, 실시간 경험 학습 결여)가 명확해졌기 때문이다.1 샘 알트먼조차 GPT-5가 초기 훈련 이후 경험을 통해 배우지 못한다는 한계를 인정하며, 현재의 모델이 지능이라기보다는 정교한 패턴 매칭에 가깝다는 비판에 직면해 있다.1

이를 극복하기 위해 르쿤은 트랜스포머를 넘어선 비지도 학습 기반의 세계 모델을 제안하는 것이며, 하사비스는 트랜스포머에 강화 학습과 탐색 알고리즘을 결합하여 ’생각하는 시간’을 늘리는 방식으로 돌파구를 찾고 있다.9 두 진영 모두 현재의 트랜스포머 단일 구조로는 진정한 AGI 도달이 불가능하다는 점에는 암묵적으로 동의하고 있는 셈이다.

7. 결론 및 향후 전망: AGI로 가는 두 갈래의 길

얀 르쿤과 데미스 하사비스의 논쟁은 결국 ’인간을 닮은 지능’에 도달하는 방법론의 차이이다. 르쿤은 물리적 기반의 상식과 예측 능력을 먼저 갖춘 후 언어적 지능을 얹어야 한다고 믿으며, 하사비스는 일반적인 추론 엔진을 먼저 구축하고 시뮬레이션을 통해 세상의 법칙을 습득시켜야 한다고 믿는다.5

2025년 현재 인공지능 수준은 고난도 추론 능력에서 이미 인간을 위협하고 있으나, 실생활에서의 범용성과 자율성은 여전히 부족한 상태이다. 전문가들은 진정한 의미의 AGI가 도착할 시점을 하사비스와 같은 낙관론자들은 2026~2030년 사이로, 르쿤과 같은 신중론자들은 2040년 이후로 보고 있다.1

분명한 것은 인공지능이 이미 단순한 도구를 넘어 과학적 발견의 가속기이자 경제 구조의 변혁기로 작동하기 시작했다는 점이다. 얀 르쿤의 세계 모델 기반 로보틱스 혁신과 데미스 하사비스의 시뮬레이션 기반 추론 혁신은 각기 다른 산업군에서 폭발적인 생산성 증대를 가져올 것이며, 이 두 갈래의 길이 합쳐지는 지점에서 인류는 진정한 AGI의 탄생을 목격하게 될 것이다.5 AGI는 더 이상 도달 가능성을 논하는 단계가 아니라, 그 도달이 가져올 문명적 충격에 인류가 어떻게 대비할 것인가를 논해야 하는 실존적 과제로 다가와 있다.

8. 참고 자료

  1. AGI Still Years Away, Despite Tech Leaders’ Bold Promises for 2026 …, https://medium.com/@cognidownunder/agi-still-years-away-despite-tech-leaders-bold-promises-for-2026-146c9780af65
  2. ARC Benchmark in 2025: Why Reasoning Still Challenges Large Language Models, https://graphlogic.ai/blog/ai-chatbots/ai-fundamentals/arc-benchmark-evaluating-llms-reasoning/
  3. Navigating artificial general intelligence development: societal, technological, ethical, and brain-inspired pathways - PubMed Central, https://pmc.ncbi.nlm.nih.gov/articles/PMC11897388/
  4. The future of Artificial General Intelligence: challenges for a new paradigm - Iberdrola, https://www.iberdrola.com/about-us/our-innovation-model/general-ai
  5. Demis Hassabis (DeepMind CEO): Reveals AGI Roadmap, 50 …, https://www.reddit.com/r/agi/comments/1pocuj0/demis_hassabis_deepmind_ceo_reveals_agi_roadmap/
  6. Advanced version of Gemini with Deep Think officially achieves gold …, https://deepmind.google/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
  7. Google DeepMind’s Latest Paper in Nature Unveils Most Powerful Mathematical Model for IMO - 36氪, https://eu.36kr.com/en/p/3551304246589575
  8. Meta’s Le Cun Outlines Path to Artificial Superintelligence - EE Times, https://www.eetimes.com/meta-le-cun-outlines-path-to-artificial-super-intelligence/
  9. AGI debate heats up as Demis Hassabis calls Yann LeCun’s view …, https://indianexpress.com/article/technology/artificial-intelligence/agi-debate-heats-up-as-demis-hassabis-calls-yann-lecuns-view-plain-incorrect-10435097/
  10. Yann LeCun, Demis Hassabis Clash Over What ‘General Intelligence’ Means | AIM, https://analyticsindiamag.com/ai-news-updates/yann-lecun-demis-hassabis-clash-over-what-general-intelligence-means/
  11. Are world models the next stage in AI’s evolution? | Gilbert + Tobin, https://www.gtlaw.com.au/insights/are-world-models-the-next-stage-in-ais-evolution
  12. V-JEPA: Video Joint-Embedding Predictive Architecture - Emergent Mind, https://www.emergentmind.com/topics/v-jepa-framework
  13. Meta’s V-JEPA 2 Redefines AI’s Understanding of the Physical World - Turing, https://www.turing.com/blog/exploring-v-jepa-2
  14. V-JEPA 2: Self-Supervised Video Models Enable Understanding, Prediction and Planning, https://arxiv.org/html/2506.09985v1
  15. World Foundation Models: 10 Use Cases & Examples - Research AIMultiple, https://research.aimultiple.com/world-foundation-model/
  16. The World Model Inflection: 2025 Made It Real | by Graison Thomas - Medium, https://medium.com/@graison/the-world-model-inflection-2025-made-it-real-f5a9c31475d4
  17. Critiques of World Models - arXiv, https://arxiv.org/html/2507.05169v1
  18. AI titans Demis Hassabis, Yann LeCun clash over meaning of ‘general intelligence’, https://thefederal.com/category/business/ai-chiefs-demis-hassabis-yann-lecun-lash-over-general-intelligence-meaning-222118
  19. Demis Hassabis (DeepMind CEO): AGI will be 10x bigger than Industrial Revolution & Reveals DeepMind’s “50% Scaling /Innovation” Strategy (New Interview) : r/singularity - Reddit, https://www.reddit.com/r/singularity/comments/1po9109/demis_hassabis_deepmind_ceo_agi_will_be_10x/
  20. Google DeepMind CEO urges maximum AI scaling to reach AGI - India Today, https://www.indiatoday.in/technology/news/story/google-deepmind-ceo-urges-maximum-ai-scaling-to-reach-agi-2832311-2025-12-08
  21. Google DeepMind CEO Demis Hassabis makes his stand clear on AI scaling, https://timesofindia.indiatimes.com/technology/tech-news/google-deepmind-ceo-demis-hassabis-makes-his-stand-clear-on-ai-scaling/articleshow/125828951.cms
  22. The case for AGI by 2030 | 80,000 Hours, https://80000hours.org/agi/guide/when-will-agi-arrive/
  23. From Silver to Gold: An In-Depth Analysis of Google’s Gemini Deep Think and its Landmark Performance at the 2025 International Mathematical Olympiad - Greg Robison, https://gregrobison.medium.com/from-silver-to-gold-an-in-depth-analysis-of-googles-gemini-deep-think-and-its-landmark-d3e07f9368cf
  24. AI achieves silver-medal standard solving International Mathematical Olympiad problems, https://deepmind.google/blog/ai-solves-imo-problems-at-silver-medal-level/
  25. Inside DeepSeek’s End-of-Year AI Breakthrough: What the New Models Deliver, https://c3.unu.edu/blog/inside-deepseeks-end-of-year-ai-breakthrough-what-the-new-models-deliver
  26. ARC Prize 2025 Results and Analysis, https://arcprize.org/blog/arc-prize-2025-results-analysis
  27. ARC Prize 2025 | Kaggle, https://www.kaggle.com/competitions/arc-prize-2025
  28. Top AI Models Ranked on LLM Leaderboards - Green Flag Digital, https://greenflagdigital.com/top-ai-models-ranked/
  29. NVIDIA Kaggle Grandmasters Win Artificial General Intelligence Competition, https://developer.nvidia.com/blog/nvidia-kaggle-grandmasters-win-artificial-general-intelligence-competition/
  30. Data Centers in the AI Era: Energy and Emissions Impacts in the U.S. and Key States, https://www.globalefficiencyintel.com/data-centers-in-the-ai-era-energy-and-emissions-impacts-in-the-us-and-key-states
  31. Energy demand from AI - IEA, https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai
  32. Artificial Intelligence’s Energy Paradox: Balancing Challenges and Opportunities - World Economic Forum: Publications, https://reports.weforum.org/docs/WEF_Artificial_Intelligences_Energy_Paradox_2025.pdf
  33. The DeepSeek Effect: Rewriting AI Economics Through Algorithmic Efficiency - Medium, https://medium.com/@aiml_58187/the-deepseek-effect-rewriting-ai-economics-through-algorithmic-efficiency-part-1-46cf9b2e9930
  34. DeepSeek Releases Cost-Cutting AI Model with ‘Sparse Attention’ Technology, https://techstrong.ai/articles/deepseek-releases-cost-cutting-ai-model-with-sparse-attention-technology/
  35. DeepSeek-V3 Technical Report - arXiv, https://arxiv.org/html/2412.19437v1